23 research outputs found

    Seriously, What Did One Robot Say to the Other? Being Left out From Communication by Robots Causes Feelings of Social Exclusion

    Get PDF
    While humans actually need some overt communication channel to transmit information, be it verbally or nonverbally, robots could use their network connection to transmit information quickly to other robots. This raises the question how this covert robot-robot communication is perceived by humans. The current study investigates how transparency about communication happening between two robots affects humans’ trust in and perception of these robots as well as their feeling of being included/excluded in the interaction. Three different robot-robot communication styles were analyzed: silent, robotic language, and natural language. Results show that when robots transmit information in a robotic language (beep sounds) this leads to lower trust and more feelings of social exclusion than in the silent (i.e., covert) or natural language conditions. Results support the notion that humans are over-sensitive to signs of ostracism which seems to be detected in this style of overt but nonhuman robot-robot communication

    Empathische Reaktionen gegenĂŒber einem Roboter

    Get PDF
    Es ist bereits bekannt, dass Menschen soziale Reaktionen auf Computer und artifizielle Wesen wie virtuelle Agenten zeigen. Auch fĂŒr die Mensch-Roboter-Interaktion konnten erste Studien zeigen, dass Menschen Verhalten zeigen, das man lediglich in der Mensch-Mensch-Kommunikation erwarten wĂŒrde. Ob auch empathische Reaktionen gegenĂŒber Robotern gezeigt werden, wurde bislang nicht untersucht. In einem 2x2 laborexperimentellen Design betrachteten die Probanden (N=40) zwei Filme, in denen ein Spielzeugroboter in Dinosaurierform entweder gequĂ€lt oder gestreichelt wird (Treatmentfaktor 1, within subjects). Der einen HĂ€lfte der Probanden wurde der Roboter vorab vorgestellt und 10 Minuten zum Kennenlernen ĂŒberlassen, wĂ€hrend der anderen HĂ€lfte der Probanden der Roboter vollkommen fremd war (Treatment Faktor 2, between subjects). Nach jedem Video wurde das emotionale Befinden mit Hilfe der PANAS erhoben und die Probanden fĂŒllten am Ende einen Fragebogen zur Bewertung des Roboters aus. Nach der Rezeption des Videos, in dem der Roboter gequĂ€lt wird, fĂŒhlten die Probanden sich signifikant schlechter (F(1/39)=26,946; p=.000). Die Bedingungsvariation der vorherigen Interaktion zeigte jedoch keinen Einfluss auf das emotionale Befinden nach der Rezeption des Videos oder die empfundene Empathie. Somit konnte gezeigt werden, dass eine negative Behandlung eines Roboters das eigene Empfinden beeinflusst, dass eine kurzzeitige Interaktion mit dem Roboter das Mitleiden aber nicht verstĂ€rkt

    Der Aufbau sozialer Beziehungen mit einem Roboter. Eine Beobachtungsstudie im Feld

    Get PDF
    Roboter nehmen in letzter Zeit vermehrt Einzug in verschiedene Lebensbereiche. Es werden nicht nur Haushaltsroboter, die staubsaugen, oder Roboter, die vorrangig Entertainment-Zwecken dienen, angeboten, sondern in einigen Altenheimen werden Roboter bereits eingesetzt, um Senioren Gesellschaft zu leisten. Vor diesem Hintergrund untersucht die Studie als Teil des EU Forschungsprojektes SERA (Social Engagement with Robots and Agents), ob und inwiefern soziale Beziehungen zu Robotern aufgebaut werden. In einer Beobachtungsstudie und einem anschließenden qualitativen Interview wurden drei weibliche Teilnehmer (zwischen 50 und 65 Jahren) ĂŒber eine Woche in der Interaktion mit einem Nabaztag beobachtet. Dieser Roboter in Hasenform wurde fĂŒr die Studie so programmiert, dass er mit den Untersuchungsteilnehmerinnen Dialoge rund um das Thema Gesundheit und Fitness fĂŒhren konnte. Der Roboter nutzte Sprachoutput, der Input von Seiten der Teilnehmerinnen wurde ĂŒber Ja/Nein Knöpfe vorgenommen. Mit einer Webcam wurden 66 Interaktionen aufgezeichnet. Die kategorienbasierte Auswertung der Transkripte zeigte z.B., dass der Nabaztag hĂ€ufig natĂŒrlich-sprachlich adressiert wurde und ihm beispielsweise alltĂ€gliches Verhalten erklĂ€rt wurde, obwohl die Probandinnen wussten, dass der Roboter sie nicht verstehen kann, da eine Interaktion nur ĂŒber die Knöpfe möglich war. Die Ergebnisse zeigen, dass durchaus Beziehungen aufgebaut werden und lassen SchlĂŒsse ĂŒber die soziale Natur des Menschen zu

    Lass die Ohren nicht hÀngen! Eine Studie zur Wirkung der Ohrensprache eines Kommunikationsroboters in Hasenform

    Get PDF
    Im Folgenden werden die Ergebnisse einer Studie ĂŒber die Wirkung des nonverbalen Verhaltens des Kommunikationsroboters Nabaztag und deren Implikation fĂŒr das Nutzererleben dargestellt. 100 Probanden in Deutschland wurden Fotos des Hasen gezeigt, auf denen dieser verschiedene Ohrenpositionen hatte. Die Ergebnisse zeigen, dass mit den Positionen der Ohren, dem Hasen verschiedene GefĂŒhlszustĂ€nde zugeschrieben werden. Diese Ergebnisse sind vor dem Hintergrund eines gezielten matchings zwischen verbalen und nonverbalen Kommunikationsinhalten, aber auch fĂŒr ein stimmiges Nutzererleben, und damit fĂŒr den Nutzungsspaß, von essentieller Bedeutung

    Neural Mechanisms for Accepting and Rejecting Artificial Social Partners in the Uncanny Valley.

    Get PDF
    Artificial agents are becoming prevalent across human life domains. However, the neural mechanisms underlying human responses to these new, artificial social partners remain unclear. The uncanny valley (UV) hypothesis predicts that humans prefer anthropomorphic agents but reject them if they become too humanlike-the so-called UV reaction. Using fMRI, we investigated neural activity when subjects evaluated artificial agents and made decisions about them. Across two experimental tasks, the ventromedial prefrontal cortex (VMPFC) encoded an explicit representation of subjects' UV reactions. Specifically, VMPFC signaled the subjective likability of artificial agents as a nonlinear function of humanlikeness, with selective low likability for highly humanlike agents. In exploratory across-subject analyses, these effects explained individual differences in psychophysical evaluations and preference choices. Functionally connected areas encoded critical inputs for these signals: the temporoparietal junction encoded a linear humanlikeness continuum, whereas nonlinear representations of humanlikeness in dorsomedial prefrontal cortex (DMPFC) and fusiform gyrus emphasized a human-nonhuman distinction. Following principles of multisensory integration, multiplicative combination of these signals reconstructed VMPFC's valuation function. During decision making, separate signals in VMPFC and DMPFC encoded subjects' decision variable for choices involving humans or artificial agents, respectively. A distinct amygdala signal predicted rejection of artificial agents. Our data suggest that human reactions toward artificial agents are governed by a neural mechanism that generates a selective, nonlinear valuation in response to a specific feature combination (humanlikeness in nonhuman agents). Thus, a basic principle known from sensory coding-neural feature selectivity from linear-nonlinear transformation-may also underlie human responses to artificial social partners.SIGNIFICANCE STATEMENT Would you trust a robot to make decisions for you? Autonomous artificial agents are increasingly entering our lives, but how the human brain responds to these new artificial social partners remains unclear. The uncanny valley (UV) hypothesis-an influential psychological framework-captures the observation that human responses to artificial agents are nonlinear: we like increasingly anthropomorphic artificial agents, but feel uncomfortable if they become too humanlike. Here we investigated neural activity when humans evaluated artificial agents and made personal decisions about them. Our findings suggest a novel neurobiological conceptualization of human responses toward artificial agents: the UV reaction-a selective dislike of highly humanlike agents-is based on nonlinear value-coding in ventromedial prefrontal cortex, a key component of the brain's reward system

    Folge dem weißen Kaninchen –Ein Roboterhase als Vokabeltrainer

    Get PDF
    Im Folgenden werden die Ergebnisse einer Fallstudie zur Evaluation der user experience und\ud Motivationsfunktion eines Vokabeltrainers in Form eines Roboterhasen prĂ€sentiert. Die Ergebnisse\ud zeigen, dass die SchĂŒler einer fĂŒnften Klasse, die mit dem Hasen lernten, die Anwendung sowohl\ud hinsichtlich des Ease of Use und der Perceived Usefulness als hoch einschĂ€tzten, als auch die\ud hedonische und pragmatische QualitĂ€t des Roboterhasen Nabaztag als hoch bewertet wurde. Zudem\ud waren die SchĂŒler, die mit dem Roboter lernten anschließend in einer positiveren Stimmung als die, die\ud nach der traditionellen Methode lernten. Nach einer Woche konnte bei den SchĂŒlern, die mit dem\ud Nabaztag gelernt hatten, eine durchschnittlich höhere Zahl an erinnerten Vokabeln festgestellt werden\ud als bei der Kontrollgruppe. Die Tatsache, dass die SchĂŒler nicht nur Bereitschaft zeigten, den Nabaztag\ud erneut zu benutzen, sondern ihn auch an Freunde weiterempfehlen wĂŒrden, zeigt, zusammen mit den\ud Ergebnissen der erfassten Skalen, dass die Applikation eine grundlegende Voraussetzung fĂŒr die\ud Entstehung von Motivation und Nutzungsspaß erfĂŒllt.\u

    Customer’s Acceptance of Humanoid Robots in Services: The Moderating Role of Risk Aversion

    Get PDF
    The emerging introduction of humanoid robots in service encounters is becoming a reality in the present and the short-term. Owing to this unstoppable advance, there is a need to better understand customers’ perceptions and reactions toward humanoid agents in service encounters. To shed some light on this underexplored phenomenon, this research investigates how the interaction between robot and customer’s features may contribute to a successful introduction of this disruptive innovation. Results of an empirical study with a sample of 168 US customers reveal that customer’s perceptions of robot’s human-likeness increase the intentions to use humanoid service robots. Interestingly, customers’ risk aversion moderates this relationship. Specifically, the study found that highly risk-averse customers tend to avoid using humanoids when they are perceived as highly mechanical-like. The discussion highlights the main contributions of the research, which combine previous knowledge on human–robot interaction and risk aversion from a marketing approach. Managerial implications derived from the research findings and the avenues opened for further research are described at the end

    With or against Each Other? The Influence of a Virtual Agent’s (Non)cooperative Behavior on User’s Cooperation Behavior in the Prisoners’ Dilemma

    No full text
    Most applications for virtual agents require the user to cooperate. Thus, it is helpful to investigate different strategies for virtual agents to evoke the user’s cooperation. In the present work (N = 80), we experimentally tested the influence of an agent’s (non)cooperative nonverbal behavior and actual decision-making behavior on user’s cooperation in the Prisoners’ Dilemma considering different age groups (students and seniors). Therefore, we used a 2 (nonverbal behavior) x 2 (age group) between-subjects design in Wizard-of-Oz study. Results show age differences with seniors cooperating more often than students do. The nonverbal behavior had no effect on the users’ willingness to cooperate nor on the evaluation of the agent’s cooperativeness. However, the agent’s decision-making behavior in the game influenced the users’ willingness to cooperate. In summary, the nonverbal behavior seemed to be too subtle, while the actions of the agent were important in terms of cooperation
    corecore